一文盘点图数据增广 (Graph Data Augmentation) 近期进展
©作者 | 刘纪玺
单位 | 北邮GAMMA Lab
来源 | 北邮GAMMA Lab
简介
方法介绍
2.1 -Mixup
论文标题:
G-Mixup: Graph Data Augmentation for Graph Classification
论文链接:
https://arxiv.org/pdf/2202.07179.pdf
Xiaotian Han、Zhimeng Jiang、Ninghao Liu、Xia Hu
2.1.1 动机
有不同数量的节点;
不容易对齐;
在非欧几里得空间中的类型学具有特殊性。
3)基于混合 graphons 生成合成图。
合成图节点特征的生成包括两个步骤:
1)基于原始节点特征构建 graphon 节点特征;
2)基于 graphon 节点特征生成合成图节点特征。
具体来说,在 graphon 估计阶段,我们在对齐邻接矩阵的同时对齐原始节点特征,因此我们对每个 graphon 都有一组对齐的原始节点特征,然后我们对对齐的原始节点特征进行池化(在我们的实验中是平均池化),获得图形节点特征。生成的图的节点特征与 graphon 特征相同。
2.2 AutoGCL
论文标题:
AutoGCL: Automated Graph Contrastive Learning via Learnable View Generators
论文链接:https://arxiv.org/abs/2109.10259
论文作者:Yin, Yihang and Wang, Qingzhong and Huang, Siyu and Xiong, Haoyi and Zhang, Xiang
代码链接:https://github.com/Somedaywilldo/AutoGCL
2.2.1 动机
2.2.2 主要贡献
提出了一个图形对比学习框架,其中可学习的图形视图生成器嵌入到自动增广策略中。据我们所知,这是第一项为图对比学习构建可学习的生成节点增广策略的工作。 提出了一种联合训练策略,用于在图对比学习的背景下以端到端的方式训练图视图生成器、图编码器和图分类器。 本文在具有半监督、无监督和迁移学习设置的各种图形分类数据集上广泛评估了所提出的方法。t-SNE 和视图可视化结果也证明了方法的有效性。
2.2.3 论文方法
如何设计一个好的图视图生成器
一个理想的用于数据扩展和对比学习的图视图生成器应该满足以下特性:
(1)同时支持增广图拓扑结构以及结点特征。
(2)具有标签保持性,即增广图应保持原图的语义信息。
(3)适应不同的数据分布,可扩展到大型图。
(4)为对比多视图训练前提供足够的方差。
(5)它是端到端可微的,对于反向传播(BP)梯度快速计算足够有效。
本文的视图生成器(增广策略)包括:结点丢弃和特征掩膜,但又比这两种方法更为的灵活,因为可以自适应的选择。
可学习的视图生成器
视图生成器如上图所示。首先使用 GNN 来从结点特征获得结点嵌入。对于每一个结点,使用结点的嵌入结点特征来预测选择一个数据增广方法的概率。结点数据增广的方法包括:丟弃节点,保持不变和属性掩膜。本文使用 gumbel-softamx 从这些概率中采样,相当于自适应地从三种方法中选择最优的增广策略,然后给每个节点分配一个增广操作。
如果采用 个 GNN 层作为嵌入层,那么将 记为结点 在第 层的隐藏状态, 记为结点 在第 层的嵌入。对于每一个结点 都有结点特征 ,增广选择 以及应用数据增广的函数 。结点 的增广特征 通过以下公式获得:
将最后一层 的维度设为每个节点的可能增广次数。 记作选择某种数据增广的概率。 是通过 gumbel-softmax 得到的分布中采集的 one-hot 向量。增广应用函数 通过不同的操作结合结点 和 。
对于增广后的图谱,边缘通过对所有的 使用操作 进行更新,当结点被移除时,边也被删除。由于边缘只是节点特征聚合的指导,不参与梯度计算,因此不需要以可微的方式更新。因此,视图生成器是端到端可微的。GNN 嵌入层和 gumbel-softmax 可以有效地扩展到更大的图数据集和更多的扩展选择。
2.3 MEGA
论文标题:
Bootstrapping Informative Graph Augmentation via A Meta Learning Approach
论文链接:https://arxiv.org/pdf/2201.03812.pdf
论文作者:Hang Gao, Jiangmeng Li, Wenwen Qiang, Lingyu Si, Fuchun Sun, Changwen Zheng
代码链接:https://github.com/hang53/MEGA
2.3.1 动机
因此,本文使用可学习的图增广器生成增广图,称为 MEta 图增广(MEGA)。一个“好的”图形增广必须在实例级别具有一致性,在特征级别具有信息量。为此,本文据此提出了一种学习图形增广器的新方法,该方法可以生成具有均匀性和信息量的增广。图增广器的目标是促进特征提取网络学习更具辨别力的特征表示,本文的方法结合了元学习范式来达成该目标。
2.3.2 主要贡献
本文提出了一种可学习的方法来生成信息图扩充,称为元图扩充,它提高了图对比学习的性能。 本文提出了一种辅助元学习方法来训练可学习的图形增广器,它引导编码器学习在实例级别具有均匀性和在特征级别具有信息量的表示。 本文在基准数据集上进行实验,将方法与最先进的图自监督学习方法进行比较,结果证明了该方法的优越性。
2.3.3 MEGA模型
框架
Learnable graph augmentation
该方法核心的部分为 Learnable graph augmentation,该部分由一个 GNNencoder 和 一个 MLP 组成,该工作中 MLP 使用的是两个线性层和一个 Relu 激活函数来引入了非线性因素,原图和增广图都是使用的加入了自信息的邻接矩阵,将原图和经过可学习增广器后得到的增广图用共享参数的 GNNencoder 以及 projection head 映射后进行对比学习,得到对比学习的 loss :用元学习的 pipeline 来看,该对比学习过程作为内层学习器,而外层元学习器的 loss,则分别引入了实例级别和 feature 级别的目标来指导训练。
C 表示一个 batch 中原始图和增广图的图级别的特征之间的互相关矩阵:
D 表示图级别的特征中,某两个特征维度之间的关系,这是用一个 batch 中所有的图来计算的:
由此可以定义元学习 loss :
总结
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
点击「关注」订阅我们的专栏吧